[问与答] [讨论] 最近出来的 deepseek v4 flash 感觉价格上很适合,如果想用作个人生活助手,请问大家有什么比较好的使用场景吗?
之前一直没有购买过相关的 api , 但今天看到个帖子说:使用 openclaw + deepseek v4 flash 跑 13 个小时需要调度的任务只花了不到 1 块钱。 感觉这个价格就很亲民了, 就想订阅一下,用来做个人助手。 昨天和朋友聊天就说到一点“很多时候是没有观点,
deepseek v4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 560 篇相关文章 · 第 5 / 28 页
之前一直没有购买过相关的 api , 但今天看到个帖子说:使用 openclaw + deepseek v4 flash 跑 13 个小时需要调度的任务只花了不到 1 块钱。 感觉这个价格就很亲民了, 就想订阅一下,用来做个人助手。 昨天和朋友聊天就说到一点“很多时候是没有观点,
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
来自官方微信群 9 个帖子 - 8 位参与者 阅读完整话题
(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题
信息来源官方交流群 他们的step-3.5-flash一直以来都是最快的coding 模型,虽然智商不咋地 如果v4pro可以达到一半的tps,就足够用了 3 个帖子 - 3 位参与者 阅读完整话题
虽然 V4 已经足够便宜了,但是我在想如果有 plan 的话会不会更便宜 但是一直没等到有 V4 Pro 的 Plan 3 个帖子 - 3 位参与者 阅读完整话题
这俩二选一选哪个好?代码需求比较大,不行的话拿来处理文档的话是否合适?比如银行文档啥的。glm5.1 vs deepseek v4哪个好?貌似都是非多模态模型吧 22 个帖子 - 19 位参与者 阅读完整话题
rt,想知道DeepSeek的代码能力水平,例如用GPT或者Claude的代码水平来对比。想知道能力有是GPT5.2这个水平嘛? 11 个帖子 - 7 位参与者 阅读完整话题
有佬深度使用过这两个模型吗,感觉minimax实际上不怎么好用,打算退订coding plan买v4算了,不过minimax可以看图和上网搜索,虽然在cc里面搜索的mcp老是不怎么好用 11 个帖子 - 11 位参与者 阅读完整话题
无任何违规内容,纯技术分享,求过审,给需要的佬们自己动手试试。 手上有一台8卡A100,单卡40G显存的版本,NVLink形式,由于ollama还没有提供本地部署的版本,尝试了几种方法,在github上找到了一个可行的方式,另外还看到了MacBook Pro上的版本,这个我没试过
折腾一段时间,自建了一套稳定的大模型聚合使用线路。 主要整合: DeepSeek V4 Pro / Flash 双版本 其他国产头部大模型应有尽有,按量收费 百万级超长上下文、代码能力、长文档解析表现优秀 低延迟、长期维护、日常稳定在线 适配开发调试、批量文案处理、知识库本地对接
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
SuperCLUE团队发布DeepSeek V4系列中文大模型测评结果,DeepSeek-V4-Pro凭借综合表现拿下国内第一 ,Flash版本紧随其后位居第二,国产开源模型再迎突破。本次测评覆盖数学推理、科学推理、代码生成、智能体任务规划、指令遵循、幻觉控制六大维度,Pro版本
livebench.ai LiveBench 7 个帖子 - 5 位参与者 阅读完整话题
出处 api-docs.deepseek.com 模型 & 价格 | DeepSeek API Docs 下表所列模型价格以“百万 tokens”为单位。Token 是模型用来表示自然语言文本的的最小单位,可以是一个词、一个数字或一个标点符号等。我们将根据模型输入和输出的